El análisis de imágenes como problema estadístico
Sus partes son:
Dendritas: Constituyen el canal de entrada de la información.
Sinapsis: Conexión entre neuronas.
Cuerpo celular (Soma): Es el órgano de cómputo.
Axón: Corresponde al canal de salida.
Dependencia espacial
Rejillas y Lattices
Modelo de Ising
El modelo de Potts
Segmentación de imágenes
Aprendizaje automático
¿Cómo entrenar una red neuronal?
Se trata de un proceso iterativo de “ir y venir” por las capas de neuronas.
Forwardpropagation: Se expone la red a los datos de entrenamiento y estos cruzan toda la red neuronal para ser calculadas sus predicciones (labels). Es decir, pasar los datos de entrada a través de la red de tal manera que todas las neuronas apliquen su transformación a la información que reciben de las neuronas de la capa anterior y la envíen a las neuronas de la capa siguiente. Cuando los datos hayan cruzado todas las capas, y todas sus neuronas han realizado sus cálculos, se llegará a la capa final con un resultado de predicción de la label para aquellos ejemplos de entrada.
Función de Loss: Se usa para estimar el error, para comparar y medir qué tan bueno/malo fue el resultado de la predicción en relación con el resultado correcto. Idealmente, queremos que nuestro coste sea cero, es decir, sin divergencia entre valor estimado y el esperado. Por eso a medida que se entrena el modelo se irán ajustando los pesos de las interconexiones de las neuronas de manera automática hasta obtener buenas predicciones.
Backpropagation: Partiendo de la capa de salida, esa información de loss se propaga hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total de la loss, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original.
Algunos problemas en el entrenamiento de las redes neuronales
- Valores iniciales: Se hace referencia a los valores que los pesos iniciales pueden tomar. Así, es recomendable llevar acabo una asignación de pesos pequeños generados de forma aleatoria.
\[w_{ij} \in (-0.5,0.5)\]
- Sobreajuste: También denominado “overfitting”, se produce cuando un sistema de aprendizaje automático se entrena demasiado o con datos anómalos, que hace que el algoritmo aprenda patrones que no son generales.
- Escalado de las entradas: Es preferible estandarizar todas las entradas para que tengan una media de cero y una desviación estándar de uno.
\[\tilde{x}_{i}=\displaystyle{\frac{(x_{i}-\bar{x}_{i})}{sd}}\]
- Número de capas y unidades ocultas: El número de unidades ocultas está directamente relacionado con las capacidades de la red. En general, es mejor tener demasiadas unidades ocultas que muy pocas.
Bibliografía
Hastie, T., Tibshirani, R., & Friedman, J. (2009). The elements of statistical learning: data mining, inference, and prediction. Springer Science & Business Media.
Efron, B., & Hastie, T. (2016). Computer age statistical inference (Vol. 5). Cambridge University Press.